你的浏览器版本过低,可能导致网站不能正常访问!为了您能正常使用网站功能,请使用这些浏览器。
chrome
Firefox

浏览易车国际站

您是否想浏览中国自主品牌出口车型,可以为您切换到易车国际站。

去易车国际站
继续浏览当前页

工具栏

特斯拉自驾每13英里需人工介入

它为行人提供了空间,但闯红灯并穿过迎面而来的车辆。

特斯拉备受争议的“全自动驾驶”系统如今能够执行一些相对先进的驾驶操作。然而,根据独立测试结果,这种技术可能导致不应有的自满。在南加州,部分自动驾驶系统在超过1,000英里(约1,600公里)的测试中,出现了超过75次需要人工干预的危险行为,平均每13英里(约21公里)就需一次干预。

AMCI测试在城市街道、乡村双车道、高山区和州际公路四种不同环境中评估了FSD版本12.5.1和12.5.3。测试视频显示,FSD在某些情况下能够完成相当复杂的驾驶操作,比如在停放的车辆之间找到合适的停车位以让迎面而来的车辆通过,或是向左移动为在人行道上等待信号灯的行人留出空间。此外,AMCI还赞扬了FSD在乡村道路处理盲弯时的表现。

“不可否认,FSD 12.5.1 给人留下了深刻的印象,因为它确实展示了许多类似人类的反应,尤其是在基于摄像头的系统中,”AMCI 测试总监 Guy Mangiamele 表示。

“然而,在任何 FSD 操作的前五分钟内,它似乎不会出现错误,这会让人产生一种敬畏感,而这种敬畏感不可避免地导致危险的自满。当驾驶员在启用 FSD 时将手放在膝盖上或远离方向盘时,这是极其危险的。正如视频所示,FSD 在关键时刻的误判往往是瞬间事件,即使是以测试心态操作的专业车手也必须高度集中以应对这些情况,”Mangiamele 说。

AMCI 发现的一些危险行为包括闯红灯和在弯道上越过对向车道,恰好与另一辆车相遇。更糟糕的是,FSD 的表现被证明是不可预测的,这或许是由于特斯拉依赖机器学习这一概率黑匣子的结果

“无论是计算能力不足,还是汽车在计算上出现‘滞后’时的缓冲问题,亦或是对周围环境评估时的一些细节遗漏,原因都难以确定。这些失误是最具潜在危险性的。此外,简单编程的缺陷也屡屡造成问题,例如在距高速公路出口不到十分之一英里时才开始变道,这不仅影响了系统的表现,还引发了对其基本编程质量的质疑,”Mangiamele 说。

内容由作者提供,不代表易车立场

收藏

收藏成功 ! 去易车app查看收藏文章

猜你想看

+加载更多

活动推荐

广告
  • 奖 
  • 抢 
  • 奖 

相关车型

CopyRight © 2000-2023 BitAuto,All Rights Reserved. 版权所有 北京易车信息科技有限公司    购车咨询:4000-168-168 (周一至周日 9:00 – 21:00) 法定假日除外